Granularidad
Es determinada por el número de tareas (=CPUs trabajando) y el tamaño del problema asignado a cada tarea.
Fine-grained (grano fino): muchas tareas, pequeños problemas
Coarse-grained (grano grueso): pocas tareas más grandes.
Grado de concurrencia
Es el máximo número de tareas que corren en paralelo en un algoritmo.
Puede ser menor que número de CPUs asignadas, por dependencia de las tareas.
Grado promedio de concurrencia: número promedio de tareas en paralelo en un momento dado.
Generalmente, grano fino ? más concurrencia
Conc.promedio= (4*10+2*6+1*11)/27=2.33 Conc.Promedio=(4*10+6+11+7)/34=1.88
Ruta crítica y grafo de interacción de tareas
Ruta crítica: es la más larga ruta entre nodos iniciales y finales del grafo. En el ejemplo anterior (a) 10+9+8=27 (b) 10+6+11+7=34
En el grafo, los nodos representan tareas y las aristas conectan tareas que interactúan unas con otras.
Pesos de los nodos: tiempo de cómputo. Pesos de aristas: costo de interacción (ej.: comunicación).
Ejemplo: multiplicación vector x matriz dispersa (sparse)
Computar:
Solo para los A[i,j] ? 0. Suponer que hay n CPUs y se reparten las
filas de A y los valores de b (ej.: CPU0 es dueña de b[0])
Mapeo
Es el mecanismo por el que las tareas se asignan a los procesos
Un proceso: proceso como se entiende en sistemas operativos, o parte de un proceso (hilo)
Generalmente 1 proceso ??1 CPU/ core
Ejemplo
Técnicas de descomposición
Más conocidas:
Descomposición Recursiva
Descomposición de datos
Descomposición Exploratoria
Descomposición Especulativa
Las 2 primeras son más generales.
D. Recursiva
Divide y vencerás, en forma recursiva
Ej. quicksort
Ej: hallar mínimo número de un array A de n elementos
Serial o secuencial:
1. procedure SERIAL_MIN (A, n)
2. begin
3. min = A[0];
4. for i := 1 to n – 1 do
5. if (A[i] < min) min := A[i];
6. endfor;
7. return min;
8. end SERIAL_MIN
Reformado : divide y vencerasEj: A={4,9,1,7,8,11,2,12}
Cambiado a recursivo
1. procedure RECURSIVE_MIN (A, n)
2. begin
3. if (n = 1) then
4. min := A[0];
5. else
6. lmin := RECURSIVE_MIN (A, n/2);
7. rmin := RECURSIVE_MIN (&(A[n/2]), n – n/2);
8. if (lmin < rmin) then
9. min := lmin;
10. else
11. min := rmin;
12. endelse;
13. endelse;
14. return min;
15. end RECURSIVE_MIN
A un CPU
A otro CPU
D. De datos
Primero se particiona la data
Luego se usa esa partición de la data para inducir la partición de las computaciones en tareas.
Lo ideal sería que ambas particiones sean parejas en tamaño (cada proceso / CPU / core con data parecidas en tamaño y tareas parecidas en tiempo de cómputo)
Ej: multiplicación de matrices
Parta cada factor en 4 submatrices. El resultado también.
Cada submatriz del resultado se puede calcular por separado.
Y que pasa si tengo 8 CPUs?
Ej: calcular frecuencias de itemsets en una tabla
Particionando data intermedia
D. exploratoria
Se usan en problemas de búsqueda (ej.: en árboles)
Se parte el espacio de búsquedas en subespacios más pequeños.
Ej: puzzle de 15 cuadrados
D. especulativa
Cuando en un algoritmo hay ramas que dependen de un IF (si es verdadero se hace una operación, si es falso se hace otra), se puede paralelizar ambas tareas ANTES de poder evaluar el IF, ejecutando ambas operaciones y esperar al IF para eliminar una y mantener la otra.
Ejemplo
x=valoresPropios(matriz A)
IF max(x)< 1
B=C+D
ELSE
B=X-Y
Tareas
Características de las tareas:
Generación: estática o dinámica
Tamaño: uniforme o no uniforme
Conocimiento del tamaño: se puede conocer de antemano o no?
Tamaño de la data asociada a las tareas
Interacciones entre tareas
Características:
Estáticas vs Dinámicas
Regular vs Irregular
Read-only vs. Read-Write
1-way vs 2-way. Todas las read only son 1-way, pero las read-write pueden ser de cualquier tipo.
Ej. Regular: gradiente de una imagen para ver bordes
Mapeo para balance de carga
Dos objetivos
Reducir tiempo de interacción entre procesos
Reducir el tiempo ocioso de los procesos
Mutuamente excluyentes
Mapeo estático vs dinámico
Esquemas de mapeo estático
Mapeos basados en la partición de data para arrays:
Bloques 1-D, 2-D, 3-D
Ciclicos
Aleatorios en bloque
Basados en grafos:
Bloques
Cíclicos
Grafo de un lago, mapeo en 8 procesos
Mapeos basados en dependencia de tareas
Mapeo dinámico
Centralizado: un master reparte las tareas a los procesos según su criterio. Tareas de una en una, o en chunks (pedazos)
Distribuido: un proceso puede enviar o recibir las tareas de otro. Si P3 tiene mucha carga, delega algunas tareas a P7 que esta libre.
Localidad
Grado en el que la data que reside en memoria de un CPU basta para el trabajo de esa CPU. Mientras más tenga que usar data ajena, menos localidad hay.
En otros ramos de Computer Science tiene otros significados
Paralelismo y Localidad en Simulación
Problemas físicos tienen paralelismo y localidad:
Muchos objetos operan independientemente unos de otros.
Los objetos generalmente dependen más de otros objetos cercanos que de los lejanos.
Dependencia en objetos lejanos se puede simplificar.
Algunos modelos científicos pueden crear paralelismo:
Cuando un problema continuo se discretiza, la dependencia en el tiempo se limita a time steps cercanos.
Efectos lejanos se pueden ignorar o aproximar.
Puede haber paralelismo en varios niveles
Ej.: varios circuitos se pueden simular a diferentes niveles, desde el de todo un aparato, hasta los componentes básicos individuales.
Algunas clases básicas de simulación
Sistemas de eventos discretos:
Ejs: Game of Life, circuitos lógicos.
Sistemas de partículas:
Ejs: bolas de billar, dispositivos semiconductores, galaxias.
Variables agregadas que dependen de param. continuos:
EDOs, ej: simulación de circuitos (Spice), estructuras mecánicas, cinética química.
Variables continuas que dependen de param. continuos:
EDPs, ej: calor, elasticidad, electrostática.
Muchas simulaciones combinan varias técnicas.
Resumen
Eventos discretos
Tiempo y espacio discretos
Partículas
Caso especial de sistema agregado
Ec. Diferenciales ordinarias (EDOs)
Sistemas agregados
Entidades o posiciones discretas, tiempo continuo
Ec. Diferenciales parciales (EDPs)
Tiempo y espacio es continuo
Identificar problemas comunes y sus soluciones
discreto
continuo
Maximizando localidad de data
Minimizar el volumen de intercambio de data. Ej.: gradiente, partir en 4 procesos como cuatro cuadrados pequeños vs 4 tiras largas
Minimizar la frecuencia de interacciones. Ej.: multiplicacion vector matriz dispersa, con núm.CPUs < < núm. de filas
Minimizar congestión y hot spots
Si 2 o más procesos quieren usar la misma data a la vez, donde por lo menos 1 de ellos quiere escribir: contención. Mientras ese lea+escriba, los otros no deberían correr.
Cambiar el patrón de acceso (orden de las operaciones)
Que coincidan computaciones e interacciones
Ej: mientras P0, P1 computan, P2 lee y/o escribe la variable x. Luego le tocara a P0.
Otro ej.: usar comunicación asíncrona
Modelos de algoritmos paralelos
Modelo data-parallel: ej.sumatoria
Modelo gráfico de tareas: ej. Multp. Vector matriz dispersa
Modelo de pool de tareas: mapeo dinámico de un loop es muchos sub-loops
Modelo master-slave. Ej: montecarlo maestro esclavo
Modelo pipeline o productor-consumidor
Híbridos
Página anterior | Volver al principio del trabajo | Página siguiente |